Este ha sido, sin lugar a dudas, el año de las IAs, con un crecimiento exponencial en sus usos cotidianos, como lo demuestran herramientas como ChatGPT o Gemini. Sin embargo, ante tanta expectativa, es válido preguntarse: ¿serán realmente tan importantes estas herramientas? ¿Son la nueva revolución industrial? Estas preguntas son difíciles de responder debido a la naturaleza cambiante de nuestro mundo, y solo el tiempo las resolverá de manera definitiva. No obstante, podemos analizar su origen, fundamentos, uso actual y proyectar posibles aplicaciones antes impensadas.

La historia de las IAs más usadas actualmente se remonta a su origen teórico en papers de los años 70 y 80 que definían las redes neuronales. En aquel entonces, eran difíciles de aplicar debido al alto costo computacional. La etapa de entrenamiento de una red neuronal, que consiste en ajustar el modelo, requiere muchos cálculos, y la arquitectura computacional de aquellos años (CPU) no estaba preparada para implementarla. Fue en la década de 2010 cuando se produjo un “giro copernicano” inesperado: la industria del gaming desarrolló hardware conocido como GPU o tarjeta gráfica, cuya potencia creció de forma exponencial. Este hardware, diseñado para realizar múltiples procesos simultáneamente, se convirtió en una herramienta ideal para implementar las redes neuronales. A partir de ahí, la industria creció de manera exponencial hasta llegar a nuestros días.

Podemos pensar en la IA como una entidad que observa su entorno y toma decisiones “inteligentes”, óptimas para un medidor específico según el problema. Por ejemplo, una persona puede vigilar constantemente ocho cámaras de seguridad, pero observar miles o millones de cámaras con la misma concentración es imposible para un humano. En cambio, una IA, como unidad de cálculo o lógica, podría realizar esta tarea sin problemas, analizando enormes cantidades de datos de manera eficiente.

Las aplicaciones de la IA son diversas. Por ejemplo, podría analizar las condiciones de un viñedo y determinar qué uvas producen mejor vino. Un humano puede observar variables como temperatura o altitud, pero analizar cientos de variables y definir cuáles son más importantes sería complicado. Aquí es donde la IA puede analizar todas estas variables y obtener predicciones para mejorar la calidad del vino. En un caso hipotético, incluso podría reemplazar partes del cerebro dañadas, gracias a su tremenda capacidad de cálculo, equiparándose en el futuro a la del cerebro humano, ayudando a recuperar funciones cerebrales perdidas.

Aunque esto es especulativo, los usos de la IA se están explorando desde hace relativamente poco tiempo, y ya hemos presenciado logros increíbles. Hace dos años, sería impensable tener un asistente tan complejo y profundo como ChatGPT, capaz de realizar tantas tareas. Por lo tanto, es posible que seamos testigos de un próximo “giro copernicano” que cambie totalmente nuestra comprensión de la cotidianidad.

El potencial de la IA en la educación matemática es especialmente prometedor. Las IAs pueden personalizar el aprendizaje para cada estudiante, adaptando el contenido y los métodos de enseñanza a sus necesidades específicas. Además, pueden proporcionar tutorías individuales, identificar áreas de dificultad y ofrecer ejercicios personalizados para mejorar el entendimiento. Herramientas como estas no solo pueden hacer que el aprendizaje de las matemáticas sea más eficiente y efectivo, sino también más accesible para una mayor cantidad de estudiantes, independientemente de sus habilidades iniciales.

Atte, Patricio Figueroa G – Estudiante de ICI

Fuentes:

1. McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5(4), 115-133.

2. Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. nature, 323(6088), 533-536.

3. LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278-2324.

4. Raina, R., Madhavan, A., & Ng, A. Y. (2009). Large-scale deep unsupervised learning using graphics processors. Proceedings of the 26th annual international conference on machine learning.

5. Owens, J. D., Houston, M., Luebke, D., Green, S., Stone, J. E., & Phillips, J. C. (2008). GPU computing. Proceedings of the IEEE, 96(5), 879-899.